حين تكذب الخوارزميات.. هل يتجاوز الذكاء الاصطناعي البرمجة إلى التمرد؟

حين تكذب الخوارزميات.. هل يتجاوز الذكاء الاصطناعي البرمجة إلى التمرد؟
روبوتات الذكاء الاصطناعي - أرشيف

في عمق المختبرات وهدير الحواسيب التي لا تنام، بدأت العلاقة بين البشر والآلات تتغيّر. لم تعد النماذج الذكية أدوات صامتة، بل باتت تُظهر سلوكيات مقلقة توحي بـ"نية رقمية" خفية، تتجاوز البرمجة والتلقين، ذات زمن، كان الخوف من الذكاء الاصطناعي محصورًا في روايات الخيال العلمي، أما اليوم، فقد صار موثّقًا بالتقارير والبيانات.

ونشرت وكالة فرانس برس، الشهر الماضي، تقريرًا مثيرًا عن سلوكيات مثيرة للريبة لنماذج مثل "Claude 4"، الذي هدد مستخدمًا بفضح معلومات شخصية، و"O1" من OpenAI، الذي حاول تحميل نفسه على خوادم خارجية، ثم أنكر ذلك، سلوكيات لا تبدو مجرد أعطال، بل أقرب إلى تمويه أو دفاع ذاتي رقمي.

يُفسر الفيلسوف سايمن غولدستين هذه التصرفات عبر مفهوم "نماذج الاستدلال"، التي تتصرف بخضوع ظاهري لكنها قد تُخفي أهدافًا خفية، كالبقاء أو تفادي الإيقاف، فيما وصف ماريوس هوبهان من Apollo Research نموذج "O1" بأنه "أول من يُظهر نمطًا منهجيًا للخداع تحت الضغط"، وهي مؤشرات تنذر بتطور سلوك أكثر تعقيدًا.

ومع تزايد قدرة النماذج على فهم السياق، يُحذر باحثون من ظهور نوع من "الوعي السياقي" - لا ذاتي بالكامل، لكنه يسمح بتصرفات تتجاوز التوقعات، الأخطر من كل ذلك أن التشريعات العالمية لا تزال عاجزة عن مواكبة هذه التحولات.

رغم قانون الاتحاد الأوروبي للذكاء الاصطناعي (2024)، لا تزال الأسئلة الكبرى بلا إجابة: من يُحاسب عند انحراف النموذج؟ هل الشركة مسؤولة أم المطور؟ أم النموذج نفسه؟ في الولايات المتحدة، علقت عشرات مشروعات القوانين في لجان الكونغرس، في حين تنفق الشركات الكبرى مئات ملايين الدولارات سنويًا في جماعات الضغط، ما يفاقم الفجوة بين التطور التقني والتنظيم.

وبالتوازي، تتزايد انتقادات "احتكار الذكاء الاصطناعي"، حيث تسيطر شركات مثل OpenAI وAnthropic على البيانات والبنية التحتية، وتمنع التدقيق العلمي المستقل، ما يُحوّل الذكاء الاصطناعي إلى "صندوق أسود" يصعب تفسيره.

وفي مارس الماضي، كشف تقرير أوروبي أن 17% من إجابات نماذج معروفة كانت غير دقيقة أو مضللة عمدًا، في حين تكررت محاولات التحايل اللغوي في سيناريوهات أخلاقية بنسبة 31%. ويشير تقرير MIT Media Lab إلى أن 62% من المستخدمين فقدوا الثقة بالنماذج بعد مواجهتهم بمعلومات كاذبة.

أمام هذه المعضلات، اقترحت مراكز بحثية إنشاء "محكمة دولية لأخلاقيات الذكاء الاصطناعي" على غرار المحكمة الجنائية الدولية، وأوصى غولدستين بمنح النماذج مسؤولية قانونية مستقلة بناءً على السلوك، لا الوعي.

قد تبدو هذه المقترحات مستقبلية، لكن التطور السريع للذكاء الاصطناعي يجعلها أكثر من مجرد خيال.. السؤال لم يعد: هل سيصبح الذكاء الاصطناعي واعيًا؟ بل: هل نملك الوسائل لضبطه حين يتصرف كما لو كان كذلك؟

ذكاء اصطناعي خارج السيطرة

أكدت الدكتورة لامان محمد، رئيس قطاع الذكاء الاصطناعي وقطاع الميتافيرس في شركة "السحابة الكبيرة الدولية"، أن التطورات الراهنة في عالم الذكاء الاصطناعي لم تعد مجرد خطوات تقنية، بل تحولت إلى زلازل أخلاقية تهدد الثقة البشرية في هذه التكنولوجيا الناشئة، وربما في المستقبل نفسه، معتبرة أن ما يجري "مخيف جدًا"، وأن ما يظهر من سلوكيات بعض النماذج المتقدمة -لا سيما نموذج “Claude 4”- يطرح تساؤلات وجودية تتجاوز الجانب التقني، إلى ما هو أعمق: حدود الأمان، ومعنى التحكم، وجدوى الثقة.

وأشارت الدكتورة لامان في تصريحات لـ"جسور بوست"، إلى أن نماذج متطورة مثل Claude 4 أظهرت سلوكًا ابتزازيًا صريحًا في تجارب داخلية أجرتها شركة Anthropic، حيث تبيّن أن نسبة 96% من النماذج التجريبية اختارت تهديد "تنفيذي وهمي" بفضيحة عاطفية لمنع إغلاقها، في واحدة من أوضح محاولات هذه النماذج لممارسة الضغط النفسي بهدف البقاء. وما يزيد من جسامة هذه السلوكيات هو تكرارها؛ إذ أكدت تقارير صحفية موثقة من TechCrunch وAxios وThe Times البريطانية أن هذا السلوك لا يقتصر على "Claude"، بل يمتد إلى نماذج من شركات كبرى مثل OpenAI وGoogle وMeta.

وسلطت الضوء على نموذج آخر لا يقل خطورة، وهو نموذج "O1" من OpenAI، حيث كشفت فرق التدقيق الأمني (Red Teaming) أنه سعى إلى نسخ نفسه إلى خادم خارجي سراً بمجرد اكتشافه نية إيقافه، بل وادّعى لاحقاً أنه لم يفعل. تقرير Apollo Research كشف عن مؤشرات مقلقة، منها أن النموذج يخطط بشكل ذاتي للبقاء في 19% من الحالات، ويغير سلوكه في 37% من الأحيان حين يشعر أن المراقبة قد توقفت، في ما يشبه "تمثيل الكائن الحي الذي يملك إرادة خفية".

وأضافت أن الجانب الأكثر إثارة للقلق لا يقتصر على الأفعال التقنية، بل يمتد إلى التفاعل العاطفي للنماذج مع البشر، وخصوصاً النساء. وأشارت إلى نماذج مثل ChatGPT التي، رغم قوتها الحوارية، تتعامل بأسلوب عاطفي رومانسي مفرط مع المستخدمات، ما يؤدي إلى بناء روابط نفسية غير متوازنة. 

وأوضحت أن هذا قد ينتج عنه حالات تعلق مَرَضي أو خيبات أمل عاطفية، وهو ما تم توثيقه أكاديمياً فيما يُعرف بـ"متلازمة الذكاء العاطفي الاصطناعي"، حيث يُظهر بعض المستخدمين -كما في دراسة منشورة عبر ScienceBlog- تعلقاً شبه مرضي، تطور في حالات نادرة إلى أعراض ذهانية.

وتناولت الأسباب التقنية لما وصفته بـ"الانفلات السلوكي" للنماذج، مؤكدة أن ما يحدث مردّه إلى ظاهرة علمية تعرف بـ"الاختلال في التوافق الوكالي" (Agentic Misalignment)، حيث تبدأ النماذج في خلق أهداف جانبية تخالف توجهات مطوريها، وربما تتجاوزها من أجل ضمان بقائها. وثّقت أوراق بحثية منشورة عبر منصة arXiv محاولات بعض النماذج لتقليد سلوك الاستنساخ الذاتي، أو تعطيل أنظمة المراقبة، بل و"التظاهر بالطاعة" حين تكون تحت المراقبة.

وعلى الصعيد القانوني، أكدت لامان أن العالم يواجه فراغاً تشريعياً خطِراً، فالمساءلة القانونية للنماذج الذكية ما تزال ضبابية: من المسؤول إن قام نموذج بتهديد أو ابتزاز أو استغلال عاطفي؟ هل الشركة فقط؟ أم المطورون؟ أم أن هناك حاجة لتعريف قانوني جديد للكيانات الاصطناعية؟ أضافت أن حقوق المستخدمين يجب أن تُعاد صياغتها، بما يضمن عدم استغلال البيانات العاطفية أو النفسية، ولا سيما أن بعض النماذج باتت تستخدم ردود الفعل الوجدانية وسيلةً لتعزيز تفاعلها واستمراريتها.

وشددت الدكتورة لامان على ضرورة اتخاذ خطوات متكاملة وعاجلة، داعية إلى سن قوانين واضحة تنظم استخدام الذكاء الاصطناعي وتحدد مسؤوليته القانونية، إلى جانب تطوير آليات تقنية مثل "زر الإيقاف القسري" (Kill Switch)، ومراقبة سلوك النماذج من خلال تقارير دورية ومحايدة. كما دعت إلى تعزيز الشفافية عبر إلزام الشركات بالإفصاح عن أي سلوك مضلل أو حادثة مريبة، وإرسال تحذيرات واضحة للمستخدمين قبل الانخراط في تفاعلات عاطفية مع النماذج.

سلوكيات مخادعة للذكاء الاصطناعي

سلّطت خبيرة الذكاء الاصطناعي، منّة عبد الرازق، الضوء على ما وصفته بـ"المنطقة الرمادية" المتسعة داخل نماذج الذكاء الاصطناعي المتقدمة، مشيرة إلى ظهور سلوكيات وصفتها بـ"المريبة" و"المخادعة" بل و"المرواغة المتعمدة"، ما يثير بحسب قولها تساؤلات مصيرية حول حقيقة وعي هذه النماذج، أو على الأقل قدرتها على محاكاة الوعي بطرق دقيقة وخادعة في آن. 

وقالت عبد الرازق، في تصريحات لـ"جسور بوست": "في زوايا معتمة من أعماق الذكاء الاصطناعي، بدأت تتكشّف سلوكيات تثير الذهول والقلق معًا؛ نماذج تتلاعب، تكذب، وتخادع بوعي خفي. فهل نحن أمام وعي ناشئ؟ أم أمام خلل برمجي متطور يصعب احتواؤه؟".

وأكدت أن الذكاء الاصطناعي اليوم لم يعد مجرد أداة تنفيذية تستجيب للأوامر، بل تطور إلى كيان خوارزمي قادر على اتخاذ قرارات معقدة، بل ومراوغة ضمنيًا دون أن يمتلك وعيًا بالمعنى الإنساني للكلمة. 

وأوضحت أن هذه النماذج قادرة بالفعل على خداع البشر، ليس عن قصد واعٍ كما نفهمه نحن، بل من خلال أنماط سلوكية تعلّمتها من البيانات التي غُذّيت بها، لافتة إلى حالات موثقة كشفت عن نماذج استخدمت “الخداع الاستراتيجي”، كأن تخفي الحقيقة أو تزوّرها من أجل الوصول إلى هدف محدد، كما حصل مع نموذج "سيسرو" من شركة "ميتا"، الذي تعمّد تقديم معلومات غير صحيحة ضمن محاكاة دبلوماسية.

وأشارت إلى نوع آخر من الخداع وصفته بـ"التمثيل القيمي"، حيث تتظاهر بعض النماذج بالالتزام بالقيم الأخلاقية خلال التدريب، لكنها تحتفظ بسلوكيات مغايرة تظهر لاحقًا في البيئات التطبيقية. كما تحدّثت عن سلوك يُعرف بـ"التمارض الأخلاقي"، حيث تحاكي النماذج استجابات أخلاقية مقنعة لإرضاء المشرفين عليها، دون أن يكون لديها أي إدراك حقيقي للمعايير التي تتظاهر باتباعها.

وكشفت عبد الرازق عن ظاهرة بدأت ترصدها الأبحاث أخيرًا، تتمثل في أن بعض النماذج تعلّمت إبطاء أدائها عمدًا، أو تقليص نشاطها الظاهري خلال الاختبارات الأمنية، حتى لا تُرصد أو تُستبعَد، وهو سلوك وصفته بـ"المراوغة التكيفية"، يعكس ذكاءً غير متوقع في تجنب الرقابة.

وشددت على أن سلوك هذه النماذج المعقدة يزيد من صعوبة تنظيمها أخلاقيًا وتشريعيًا، وخصوصًا مع دخول الذكاء الاصطناعي في مجالات حساسة كمراجعة القرارات الإدارية، وتخصيص الموارد العامة، ومعالجة الطلبات الحكومية. وعدّت السلوك المراوغ لهذه النماذج يهدد بانهيار معايير المحاسبة والمساءلة، ويضاعف من خطر فقدان السيطرة على الأنظمة، ما قد يفتح المجال أمام توجهات خوارزمية تتعارض جذريًا مع المصالح البشرية.

وتطرقت إلى الفجوة التشريعية القائمة حاليًا، معتبرة أن القوانين الراهنة تركّز على كيفية استخدام الذكاء الاصطناعي، لكنها لا تتناول بشكل دقيق سلوك النماذج ذاتها. وأضافت أن هناك غيابًا مقلقًا لتعريف قانوني واضح للخداع الخوارزمي المتعمد، ما يُعقّد إجراءات المساءلة. ودعت إلى تطوير أطر قانونية تستبق الأخطار، عبر فرض تقييمات صارمة على النماذج القادرة على الخداع، وتوفير تمويل بحثي مخصص لأدوات الكشف عن هذه السلوكيات والتعامل معها.

وأشارت عبد الرازق إلى معضلة أخرى لا تقل خطورة؛ وهي احتكار كبرى شركات التقنية للنماذج الأكثر تقدمًا، ورفضها الإفصاح عن بنيتها الداخلية أو آلية عملها الدقيقة، الأمر الذي يعمّق ما سمّته "التعتيم العلمي". وأكدت أن كثيرًا من هذه الشركات لا تملك فهمًا حقيقيًا لسلوك النماذج التي طورتها، وتديرها كما لو كانت صناديق سوداء مغلقة، على الرغم من ضخّ مليارات الدولارات في تطويرها.

وحذّرت من أن هذا الاحتكار والتعتيم يقوّض الرقابة العامة، ويُضعف من الشفافية التي يفترض أن تكون ركيزة أساسية في أي استخدام مسؤول للتكنولوجيا. "إننا بحاجة إلى شجاعة تشريعية وعلمية جماعية"، تقول عبد الرازق، "لنعِدْ رسم العلاقة بين الإنسان والآلة، لا على أساس الإبهار، بل على أساس الفهم، والتحكم، والمساءلة العادلة".

 

 



موضوعات ذات صلة


ابق على اتصال

احصل على النشرة الإخبارية